反事实解释体现了许多可解释性技术之一,这些技术受到机器学习社区的关注。它们使模型预测更明智的潜力被认为是无价的。为了增加其在实践中的采用,应在文献中提出反事实解释的一些标准。我们提出了使用约束学习(CE-OCL)优化的反事实解释,这是一种通用而灵活的方法,可满足所有这些标准,并为进一步扩展提供了空间。具体而言,我们讨论如何利用约束学习框架的优化来生成反事实解释,以及该框架的组件如何容易地映射到标准。我们还提出了两种新颖的建模方法来解决数据的近距离和多样性,这是实践反事实解释的两个关键标准。我们在几个数据集上测试CE-OCL,并在案例研究中介绍我们的结果。与当前的最新方法相比,CE-OCL可以提高灵活性,并且在相关工作中提出的几个评估指标方面具有卓越的性能。
translated by 谷歌翻译
最近在认证的人工智能(AI)工具上使用的医疗保健工具的峰值启动了有关采用该技术的辩论。此类辩论的一个线索涉及可解释的AI及其希望使AI设备更透明和值得信赖的承诺。在医学AI领域中活跃的一些声音对可解释的AI技术的可靠性表示关注,并质疑它们在准则和标准中的使用和包容性。重新批评此类批评,本文对可解释的AI的实用性提供了平衡,全面的观点,重点是AI的临床应用的特异性,并将其置于医疗干预措施中。我们认为,尽管有有效的关注,但我们认为,可解释的AI研究计划仍然是人机相互作用的核心,最终是我们反对失去控制的主要工具,仅通过严格的临床验证,这种危险无法阻止。
translated by 谷歌翻译
We introduce a new rule-based optimization method for classification with constraints. The proposed method takes advantage of linear programming and column generation, and hence, is scalable to large datasets. Moreover, the method returns a set of rules along with their optimal weights indicating the importance of each rule for learning. Through assigning cost coefficients to the rules and introducing additional constraints, we show that one can also consider interpretability and fairness of the results. We test the performance of the proposed method on a collection of datasets and present two case studies to elaborate its different aspects. Our results show that a good compromise between interpretability and fairness on the one side, and accuracy on the other side, can be obtained by the proposed rule-based learning method.
translated by 谷歌翻译